Klage wegen Kinderschutz

Apple steht vor Gericht: West Virginia verklagt wegen iCloud-Missbrauch

West Virginia verklagt Apple wegen angeblicher Verbreitung von Missbrauchsmaterial über iCloud und wirft dem Konzern vor, sich hinter Datenschutz zu verstecken.

Von   Uhr

Der US-Bundesstaat West Virginia hat Apple verklagt. Der Vorwurf: Das Unternehmen ermögliche wissentlich die Verbreitung und Speicherung von Missbrauchsmaterial über iCloud. Generalstaatsanwalt JB McCuskey wirft Apple vor, seit Jahren untätig zu bleiben und sich hinter dem Datenschutz zu verstecken.

Quickread: Auf einen Blick
  • West Virginia verklagt Apple, weil das Unternehmen angeblich wissentlich die Verbreitung von Kindesmissbrauchsmaterial über iCloud ermöglicht.
  • Apple hatte 2021 eine CSAM-Erkennungstechnologie angekündigt, diese aber nach massiver Kritik aus Datenschutzgründen wieder aufgegeben.
  • Der Bundesstaat fordert Schadenersatz und die Implementierung wirksamer Erkennungsmaßnahmen – bereits 2024 gab es eine ähnliche Klage über 1,2 Milliarden US-Dollar.

Apple zwischen Datenschutz und Kinderschutz

Die Klage wirft ein Schlaglicht auf ein Dilemma, mit dem sich Apple seit Jahren auseinandersetzt. Laut der eingereichten Klageschrift soll Apple intern selbst von der „größten Plattform zur Verbreitung von Kinderpornografie“ gesprochen haben. Gleichzeitig reiche das Unternehmen deutlich weniger Meldungen über entsprechendes Material ein als Konkurrenten wie Google oder Meta.

„Die Privatsphäre von Kinderschändern zu schützen, ist absolut unentschuldbar. Und noch wichtiger: Es verstößt gegen das Gesetz von West Virginia“, erklärt Generalstaatsanwalt McCuskey. Da Apple sich bisher weigere, selbst für Ordnung zu sorgen und das moralisch Richtige zu tun, fordere er mit dieser Klage, dass Apple dem Gesetz folge, diese Bilder melde und aufhöre, Kinder erneut zu Opfern zu machen, indem diese Bilder gespeichert und geteilt werden dürfen.

Die gescheiterte CSAM-Erkennung von 2021

CSAM erklärt!

CSAM steht für Child Sexual Abuse Material, also Material, das sexuellen Missbrauch von Kindern zeigt. Der Begriff hat die frühere Bezeichnung Kinderpornografie weitgehend ersetzt, da er deutlicher macht, dass es sich um Dokumentationen von Straftaten und nicht um legale Pornografie handelt. Tech-Unternehmen nutzen spezielle Datenbanken mit digitalen Fingerabdrücken bekannter Bilder, um solches Material automatisch zu erkennen und zu melden.

Im Jahr 2021 hatte Apple neue Kinderschutzfunktionen angekündigt, darunter ein System zur Erkennung bekannter Missbrauchsdarstellungen in iCloud-Fotos. Die geplante Technologie sollte Bilder in der iCloud-Fotomediathek mit einer Datenbank bekannter Missbrauchsdarstellungen abgleichen. Doch die Ankündigung löste einen Sturm der Entrüstung aus.

Kundinnen und Kunden, Bürgerrechtsorganisationen, Kinderschutzverbände und Sicherheitsforschende äußerten massive Bedenken. Die Kritik richtete sich vor allem gegen die potenzielle Überwachung privater Daten und die Gefahr des Missbrauchs solcher Technologien. Unter dem Druck der Öffentlichkeit entschied sich Apple Ende 2022, die Pläne zur CSAM-Erkennung in iCloud-Fotos aufzugeben.

„Kinder können geschützt werden, ohne dass Unternehmen persönliche Daten durchkämmen müssen. Wir werden weiterhin mit Regierungen, Kinderschutzorganisationen und anderen Unternehmen zusammenarbeiten, um junge Menschen zu schützen, ihr Recht auf Privatsphäre zu wahren und das Internet zu einem sichereren Ort für Kinder und für uns alle zu machen“, erklärte Apple damals.

Sicherheitsbedenken als Hauptargument

Apple begründete die Entscheidung später damit, dass die Entwicklung eines Tools zum Scannen privater iCloud-Daten „neue Angriffsvektoren für Datendiebe schaffen würde, die sie finden und ausnutzen könnten“. Das Unternehmen verwies dabei auf die Risiken, die eine solche Infrastruktur für die Datensicherheit aller Nutzenden mit sich bringen würde.

Die Ende-zu-Ende-Verschlüsselung, die Apple für viele iCloud-Dienste eingeführt hat, bedeutet, dass selbst Apple keinen Zugriff auf die gespeicherten Inhalte hat. Diese Technologie schützt die Privatsphäre der Nutzenden, erschwert aber gleichzeitig die Erkennung illegaler Inhalte.

West Virginia fordert Schadenersatz und Maßnahmen

Die Klage aus West Virginia argumentiert, dass Apple seiner Verantwortung zum Schutz von Kindern nicht nachkomme und sich zu Unrecht auf den Datenschutz berufe. Die Entscheidung, keine Erkennungstechnologie einzusetzen, sei eine bewusste Wahl und keine passive Unterlassung. Da Apple die vollständige Kontrolle über Hardware, Software und Cloud-Infrastruktur habe, könne sich das Unternehmen nicht als „unwissender, passiver Kanal“ für Missbrauchsmaterial bezeichnen.

Der Bundesstaat fordert Strafschadenersatz und gerichtliche Anordnungen, die Apple zur Implementierung wirksamer Maßnahmen zur Erkennung von Missbrauchsmaterial verpflichten. Die genaue Höhe des geforderten Schadenersatzes wird in der Klage nicht genannt.

Nicht die erste Klage dieser Art

Apple sieht sich nicht zum ersten Mal mit solchen Vorwürfen konfrontiert. Bereits 2024 wurde das Unternehmen verklagt, weil es die CSAM-Erkennungstechnologie aufgegeben hatte. Diese Sammelklage, die eine potenzielle Gruppe von 2.680 Opfern vertritt, argumentiert, dass Apples Versäumnis, Überwachungsinstrumente zu implementieren, den Opfern fortlaufenden Schaden zufüge. In diesem Fall werden 1,2 Milliarden US-Dollar Schadenersatz gefordert.

Die aktuelle Klage aus West Virginia verschärft den Druck auf Apple, eine Lösung zu finden, die sowohl den Kinderschutz als auch die Privatsphäre der Nutzenden berücksichtigt. Wie das Unternehmen auf die neuen Vorwürfe reagieren wird, bleibt abzuwarten. Eine Stellungnahme von Apple liegt bislang nicht vor.

Mehr zu diesen Themen: